13 - Pattern Analysis [ID:5094]
50 von 679 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Das wurde in der Mitte der 60er-Jahre durch Mathematiker gemacht.

Um zu verstehen, was die Parasite-Window-Estimation betrifft,

müssen wir die Probabilität-Densität-Funktionen und die Probabilität-Densität-Funktionen verstehen.

Also lassen wir uns die Probabilität-Densität-Funktion von P von X anwenden.

Das ist die Probabilität-Densität-Funktion für den randomen Variable X.

Das ist nein.

Und P von R bezeichnet die Probabilität.

Hör ich da Bierflaschen?

Okay, Wein, roter Wein.

Ich habe in der Nachricht von den Studenten der Universität und der Alkoholkonsumption

nicht erwartet, dass es die Studenten von anderen sind.

Das denkt an die Probabilität von X, die in unsere Region fallen.

Wenn ich hier die Featurespace habe und hier die Partitionen in Region 1, Region 2, Region 3, Region 4, Region 5, Region 6 habe,

dann ist P von R4 die Probabilität, eine randome Variable X in R4 zu beobachten.

Das ist nur die Probabilität.

Und wie kompüten wir diese Probabilität, wenn P von X gegeben ist?

Das ist nicht so schwierig.

P von R ist die Integrierung von P von X über die Region integriert.

Ich integriere nur über alle randomen Variablen, die in die Bezeichnung fallen.

Wenn man einen PDF hat, z.B. X und PX in 1D, und man hier diesen typischen PDF hat,

dann ist die Integrierung hier 1.

Das ist eine Forderung einer Probabilität.

Die Integrierung über alle randomen Variablen ist 1.

Wenn man einen Intervall beobachtet und hier die Probabilität hat, P von R,

dann ist das die Integrierung über R von P von X.

Das bedeutet nur die Bereich zwischen der Kurve und der X-Axis.

Das ist die Beziehung von Probabilität-Densität-Funktionen und Probabilitäten.

Das habt ihr schon gesehen in Christian's Lecture.

Das ist nicht so spannend, oder?

Das Level der Entspannung ist jetzt durch die nächste Idee, die ich hier implementiere, erreicht.

Lass uns mal aussehen, was wir in unserem Kapitel über randome Bäume und decision-Bäume gemacht haben.

Wir haben festgestellt, dass diese Probabilität-Funktion von konstanten Funktionen abgewandelt wird.

Wir haben also festgestellt, dass in diesem Intervall die Probabilität-Funktion von konstanten Funktionen abgewandelt wird.

Lass uns jetzt aussehen.

Wenn du dich nicht mit einer Theorie identifizieren kannst, dann schreibe ich mir einfach.

Lass uns sagen, dass P von X ungefähr konstant ist in der Region R.

Wir sagen also nicht, dass die Funktionen hoch und runter gehen, sondern konstant.

Was bedeutet das?

P von R ist die Integralität von P von X dAx über R.

Wenn P von X konstant ist, kann man es aus der Integralität bringen, weil es nicht auf die Integrationsvariante handelt.

Wir können hier P von X in der Integralität von R dAx schreiben.

Oder für dich kann ich auch hier 1 dAx schreiben.

Und was ist das? Das ist eine Konstanz hier.

Das ist die Konstanz.

Und das hier ist das Volumen von R. Das ist nur das Volumen von R.

Wenn ich über R integriert, dann bin ich nur das Volumen.

Das ist das Volumen von R. Und wir nennen das Volumen von R P von X mal Volumen von R.

Und was wir jetzt tun, ist, dass wir jetzt P von R mit relativen Frequenzen erzielen.

Was bedeutet das?

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:17:54 Min

Aufnahmedatum

2015-06-08

Hochgeladen am

2015-06-08 11:07:56

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen